AI 核心術語 50 選
AI 基礎與學習範式 (1-5)
1. 人工智慧 (AI)
Artificial Intelligence
賦予機器
模擬與執行
人類智慧行為(如學習、推理)的廣泛科學領域。
2. 機器學習 (ML)
Machine Learning
AI 的核心分支,專注於讓電腦從
資料中自動學習
模式與規律,而無需明確編寫規則。
3. 深度學習 (DL)
Deep Learning
ML 的一種技術,使用
多層人工神經網路
來學習資料中複雜的抽象特徵。
4. 監督式學習
Supervised Learning
利用
已標記的資料
(帶有標準答案)進行訓練,讓模型學習輸入與輸出之間的對應關係。
5. 非監督式學習
Unsupervised Learning
在
沒有標記的資料
中,讓模型自動探索並發現資料內在的結構或模式,如分群。
1 / 10
學習任務與神經網路基礎 (6-10)
6. 強化學習
Reinforcement Learning
模型透過與環境
互動和試錯
來學習,以最大化累積獎勵為目標,常用於決策與控制。
7. 分類 (Classification)
監督式學習任務,目標是將輸入資料預測到一個
預先定義的離散類別
中(如垃圾郵件識別)。
8. 回歸 (Regression)
監督式學習任務,目標是預測一個
連續的數值
(如房價預測、氣溫預測)。
9. 人工神經網路 (ANN)
Artificial Neural Network
模仿生物神經網路結構的計算模型,由大量互聯的
神經元
組成,是深度學習的基礎。
10. 神經元 (Neuron)
ANN 中的基本計算單元,接收輸入訊號,經加權與
激活函數
處理後,產生輸出。
2 / 10
模型訓練核心機制 (11-15)
11. 權重 (Weight)
神經元之間連接的
強度參數
。在訓練過程中,模型透過不斷調整權重來學習。
12. 激活函數
Activation Function
為神經網路引入
非線性
的數學函數,使其能夠學習複雜的模式。
13. 損失函數
Loss Function
用來衡量模型
預測值與真實值
之間的差距(損失或誤差),是模型優化的目標。
14. 梯度下降法
Gradient Descent
一種優化演算法,沿著損失函數
梯度的反方向
逐步調整參數,以尋找損失的最小值。
15. 反向傳播
Backpropagation
一種高效計算神經網路中
所有權重梯度
的演算法,是訓練的核心。
3 / 10
模型架構與自然語言處理 (16-20)
16. 過擬合 (Overfitting)
模型對
訓練資料過度學習
,導致在未見過的新資料上表現不佳的現象。
17. 卷積神經網路 (CNN)
Convolutional Neural Network
一種特別擅長處理
網格狀資料(如圖像)
的深度學習模型,能有效提取空間特徵。
18. 自然語言處理 (NLP)
Natural Language Processing
AI 的一個領域,專注於讓電腦能夠
理解、解釋和生成
人類語言。
19. 詞元 (Token)
在 NLP 中,文本被切分成處理的
最小單位
,可以是一個單詞、子詞或字元。
20. 嵌入 (Embedding)
將離散項目(如單詞)轉換為
稠密的數值向量
,使語意相似的項目在空間中距離相近。
4 / 10
大型語言模型時代 (21-25)
21. Transformer
一種基於
自注意力機制
的深度學習架構,實現了高效的並行計算,是現代LLM的基礎。
22. 自注意力機制
Self-Attention
Transformer的核心,允許模型在處理序列時,
同時計算
所有詞元間的相互關聯性權重。
23. 大型語言模型 (LLM)
Large Language Model
具有
數十億以上參數
的深度學習模型,在海量文本上預訓練,能執行各種複雜語言任務。
24. 生成式人工智慧
Generative AI
能夠根據輸入的提示,
創造全新內容
(如文字、圖像、音樂)的AI系統。
25. 提示詞 (Prompt)
提供給生成式AI模型的
輸入指令或訊息
,用來引導模型產生特定內容。
5 / 10
與AI的溝通藝術 (26-30)
26. 提示詞工程
Prompt Engineering
設計和優化提示詞的藝術與科學,旨在讓生成式AI
更準確、有效地
產生期望的輸出。
27. 幻覺 (Hallucination)
指AI模型產生看似合理,但實際上是
錯誤、捏造或無事實根據
的資訊的現象。
28. 零樣本學習
Zero-shot Learning
模型在
沒有任何範例
的情況下,僅憑指令就能執行一項新任務的能力。
29. 少樣本學習
Few-shot Learning
在提示中提供
少量(1到數個)範例
,引導模型更好地理解並完成任務。
30. 思維鏈 (CoT)
Chain-of-Thought
一種高級提示技巧,引導模型在給出最終答案前,先
逐步展示其推理過程
。
6 / 10
模型優化與擴展 (31-35)
31. 微調 (Fine-tuning)
在
預訓練好的模型
基礎上,使用特定領域的小型資料集進行額外訓練,使其更適應該領域。
32. 檢索增強生成 (RAG)
Retrieval-Augmented Generation
結合
外部知識庫檢索
與LLM生成,模型在回答前先查找資料,如同開卷考試。
33. 上下文 (Context)
模型在生成響應時所考慮的
前文資訊或背景
。上下文窗口決定了模型的記憶長度。
34. 多模態 (Multimodality)
指AI模型能夠同時處理和理解
多種類型的資料
,如文字、圖像、音訊等。
35. 擴散模型
Diffusion Model
一種強大的生成模型,透過從
純噪聲中逐步去噪
的過程來生成高品質數據,尤其在圖像領域。
7 / 10
技術生態與工具 (36-40)
36. 向量資料庫
Vector Database
專門用來儲存和高效查詢
嵌入向量
的資料庫,支援基於相似度的高效搜尋。
37. 應用程式介面 (API)
Application Programming Interface
定義了不同軟體之間
互動與資料交換
的規則與介面,是調用AI模型服務的橋樑。
38. API 金鑰 (API Key)
一個
加密的字串
,用於在呼叫API時驗證應用程式或使用者的身份與權限。
39. 光學字元辨識 (OCR)
Optical Character Recognition
從圖像或掃描文件中
提取並識別
其中的文字,將其轉換為可編輯的文本。
40. 工作流程自動化 (RPA)
Workflow Automation
利用軟體機器人模擬人類操作,
自動執行重複性高、規則化
的業務流程。
8 / 10
前沿應用與概念 (41-45)
41. 代理人 (Agent)
在AI領域,指具備
自主性與目標導向
的智能體,能感知環境、決策並採取行動。
42. 上下文工程
Context Engineering
為AI智能體
動態建構和提供
完成任務所需上下文資訊與工具的技術。
43. 本地化大型語言模型
Local LLM
指在
本地設備(如個人電腦)
上部署並運行的LLM,以增強資料隱私與控制性。
44. 模型上下文協定 (MCP)
Model Context Protocol
一種開放標準,規範應用程式如何以
統一格式
向LLM提供任務相關的資訊與指令。
45. 專家系統
Expert System
早期AI的一種形式,將專家知識編碼成
「如果-那麼」(if-then)的規則庫
來做決策。
9 / 10
特定領域任務 (46-50)
46. 電腦視覺 (CV)
Computer Vision
AI的一個分支,致力於訓練電腦
「看懂」並理解
數位圖像與影片中的內容。
47. 物件偵測
Object Detection
電腦視覺的一項任務,不僅要識別圖像中的物體,還要
標示出它們的精確位置
。
48. 影像分割
Image Segmentation
比物件偵測更精細的CV任務,目標是將圖像中的
每一個像素
都分配到其所屬的物體類別。
49. 命名實體辨識 (NER)
Named Entity Recognition
NLP的一項核心任務,從文本中
定位並分類
預先定義好的命名實體,如人名、地名等。
50. 詞形還原
Lemmatization
NLP技術之一,將單詞的不同屈折形式還原為其
字典中的基本形式(詞根)
。
10 / 10